home *** CD-ROM | disk | FTP | other *** search
/ SIGGRAPH 1996: Proceedings / SIGGRAPH 1996: Proceedings.iso / pc / papers / debevec / readme.mac < prev    next >
Text File  |  1996-05-26  |  8KB  |  162 lines

  1.  
  2. Electronic material for:
  3.  
  4. Modeling and Rendering Architecture from Photographs:
  5. A Hybrid Geometry- and Image-Based Approach
  6.  
  7.           http://www.cs.berkeley.edu/~debevec/Research/
  8.  
  9. Paul E. Debevec      debevec@cs.berkeley.edu
  10.                      http://www.cs.berkeley.edu/~debevec/
  11. Camillo J. Taylor    camillo@cs.berkeley.edu
  12.                      http://HTTP.CS.Berkeley.EDU/~camillo/
  13. Jitendra Malik       malik@cs.berkeley.edu
  14.                      http://HTTP.CS.Berkeley.EDU/~malik/
  15.  
  16. Computer Vision Group
  17.           http://http.cs.berkeley.edu/projects/vision/vision_group.html
  18. Computer Science Division
  19.           http://www.cs.berkeley.edu/
  20. University of California at Berkeley
  21.           http://www.berkeley.edu/
  22.  
  23. ========== TIFF Images
  24.  
  25. Here are electronic originals of the figures that we used in our
  26. paper.  The numbering is the same, except for fig07b.tif which did not
  27. appear in the paper due to space limitations.  More information, our
  28. latest results, and an expanded version of the paper are available
  29. online at: http://www.cs.berkeley.edu/~debevec/Research/
  30.  
  31. fig01.tif   Schematic comparison of geometry-based and image-based
  32.             modeling/rendering systems, and our hybrid approach.
  33.  
  34. fig02ab.tif Image viewer showing marked features and model viewer
  35.             showing recovered model images from the photogrammetric
  36.             modeling system.  This model was recovered from just the
  37.             one photograph, which was made possible by embedding
  38.             constraints of symmetry into the model.  The tower is
  39.             the Campanile at the Univeristy of California at Berkeley.
  40.  
  41. fig02cd.tif Reprojected model edges, showing the accuracy of the
  42.             recovered model (only edges belonging to front-facing
  43.             faces are shown.)  (d) A novel view of the clock tower
  44.             generated from three images and view-dependent texture-
  45.             mapping.  The virtual camera position is 250 feet above
  46.             the ground.
  47.  
  48. fig07.tif   Three of twelve images used to reconstruct a high school
  49.             building (University High School in Urbana, IL), with
  50.             marked features shown in green.  The original images used
  51.             were 768 x 512 pixels.
  52.  
  53. fig07b.tif  The edges of the recovered model, reprojected through the
  54.             corresponding recovered camera positions and overlaid on the
  55.             same three images.  The fact that the blue reprojected edges
  56.             conform correctly to the original photographs indicates that
  57.             the building has been reconstructed accurately.  Only edges
  58.             belonging to front-facing faces are shown.
  59.  
  60. fig08.tif   Three views of the recovered high school model, rendered
  61.             as flat-shaded polygons.  The twelve recovered camera positions
  62.             are all visible in the bottom picture.
  63.  
  64. fig09.tif   A novel view of the high school building (from about 25 feet
  65.             above the ground) rendered with the view-dependent texture-
  66.             mapping method.  Some artifacts due to uneven exposure in the
  67.             images can be seen toward the right of the image.  Some trees
  68.             were masked out of the original images to produce this
  69.             rendering.
  70.  
  71. fig10abc.tif
  72.             A reconstruction of Hoover Tower in Palo Alto, California.
  73.             As in fig02, this reconstruction is also made from a single
  74.             photograph.  The first image shows the original photograph,
  75.             with approximately 50 user-marked edges.  The second image
  76.             shows the recovered model (since the top of the tower was not
  77.             visible in the photograph, its height had to be guessed at.)
  78.             The last image shows the results of projecting the first image
  79.             onto the recovered model.  The blue regions indicate areas
  80.             that could not been seen in the original photograph.
  81.  
  82. fig11.tif   The process of view-dependent texture mapping.  The top two
  83.             images show projecting two individual images onto the building.
  84.             The bottom left image shows how both projections can be
  85.             composited using our view-dependent weighting function.
  86.             The final image shows the results of compositing all twelve
  87.             images using view-dependent texture-mapping.
  88.  
  89. fig13.tif   The benefit of view-dependent texture mapping.  (a) A detail
  90.             view of the high school model.  (b) A rendering of the model
  91.             from the same position using view-dependent texture mapping.
  92.             Note that although the model does not capture the slightly
  93.             recessed windows, the windows appear properly recessed because
  94.             the texture map is sampled primarily from a photograph which
  95.             viewed the windows from approximately the same direction.
  96.             (c) The same piece of the model viewed from a different angle,
  97.             using the same texture map as in (b).  Since the texture is
  98.             not selected from an image that viewed the model from
  99.             approximately the same angle, the recessed windows appear
  100.             unnatural.  (d) A more natural result obtained by using
  101.             view-dependent texture mapping.  Since the angle of view in
  102.             (d) is different than in (b), a different composition of
  103.             original images is used to texture-map the model.
  104.  
  105. fig14a.tif  Key, Warped-Offset, and Offset images used in model-based
  106. fig14b.tif  stereo algorithm.  The key and offset images are original
  107. fig14c.tif  pictures of the entrance to Peterhouse chapel at Cambridge
  108.             University.  The warped offset image was created by projecting
  109.             the offset image onto a very basic model (two quadrilaterals)
  110.             of the entrace, and then reprojecting into the key camera
  111.             position.  As a result, the structure of the scene is
  112.             relatively easy to recover by comparing the key and
  113.             warped offset images, rather than directly comparing the
  114.             key and offset images.
  115.             
  116. fig14d.tif  A disparity map computed by model-based stereo algorithm.
  117.             The brightness values are a function of the distance
  118.             between the computed depth of the actual scene and the
  119.             depth predicted by the approximate model.  This disparity
  120.             map can then be used to produce a depth map for the key
  121.             image.
  122.  
  123. fig16a.tif  Rendered views of recovered chapel facade model, which are
  124. fig16b.tif  full-size images of frames 68, 0, and 290 of movie6.mov
  125. fig16c.tif  A depth map for each of four key images was recovered using
  126.             model-based stereo.  For each rendering, all four images were
  127.             warped to the desired viewpoint using image-based rendering
  128.             techniques.  Lastly, the four warped images were composited
  129.             using view-dependent texture-mapping to produce the final
  130.             rendering.
  131.  
  132. ========== QuickTime Movies
  133.  
  134. movie1.mov  Four images projected onto recovered high school model.
  135.             A shadow buffer algorithm is used to compute which parts
  136.             of the model are visible from the original camera
  137.             positions.
  138.  
  139. movie2.mov  All twelve images projected onto the high school model,
  140.             composited with view-dependent texture-mapping.  Some
  141.             trees and signs can be seen incorrectly projected onto the
  142.             surface of the building.
  143.  
  144. movie3.mov  Same as movie2.mov, with obstructions (signs, trees) masked
  145.             out of the original images.
  146.  
  147. movie4.mov  Fly-around of the chapel facade renderend with traditional
  148.             texture-mapping.  The facade appears flat.
  149.  
  150. movie5.mov  Fly-around of the chapel facade rendered with view-dependent
  151.             texture-mapping of four images.  No model-based stereo detail
  152.             recovery has been performed.  Since the model is such a rough
  153.             approximation to the model's surface, view-dependent
  154.             texture-mapping produces an undesirable amount of blurring.
  155.  
  156. movie6.mov  Fly-around of chapel facade with geometric detail recovered
  157.             from model-based stereo and composited with view-dependent
  158.             texture-mapping using the same four images.  Since the original
  159.             images are warped according to the scene's recovered structure,
  160.             rather than the approximate structure of the model, the
  161.             composited renderings are more realistic.
  162.